Die Position verbindet technische Umsetzung mit geschäftlicher Ausrichtung und stellt sicher, dass Lösungen an sich verändernde kommerzielle Anforderungen angepasst werden können, während gleichzeitig architektonische Konsistenz und Standardisierung gewährleistet bleiben. Aufgabenbereiche Mitarbeit in Projekten des europäischen Data Science & Advanced Analytics Teams.Konzeption, Design, Entwicklung und Umsetzung komplexer innovativer KI-/Machine‑Learning‑Lösungen sowie Durchführung und Implementierung von Konzeptstudien unter Einsatz fortgeschrittener statistischer Methoden.Entwicklung von Deep‑Learning‑Modellen zur Extraktion strukturierter medizinischer Konzepte aus unstrukturierten Daten.Produktionsreife Implementierung von Machine‑Learning‑Algorithmen auf Big‑Data‑Plattformen.Anwendung moderner Data‑Mining‑ und Machine‑Learning‑Techniken im Zusammenhang mit Healthcare‑Big‑Data zur Identifikation komplexer Zusammenhänge und zur Verknüpfung heterogener Datenquellen.Fortgeschrittener Einsatz von Large Language Models für Zusammenfassungen, Chatbots, Entitätsextraktion usw.Entwicklung grundlegender Deep‑Learning‑Modelle für Assets und Patienten.Aufbau und Training neuer produktionsreifer Algorithmen, die aus komplexen, hochdimensionalen Daten lernen und Muster erkennen, aus denen ML‑Modelle und Anwendungen entwickelt werden können.
Benefits Senior-Rolle im SAP S4HANA und PLM Umfeld Fokus auf Master Data Governance und Prozessintegration Standort Mülheim an der Ruhr Aufgaben Sie übersetzen Business- und Engineering-Anforderungen in SAP S4HANA MDG M und PLM Lösungen Sie definieren funktionale Spezifikationen und begleiten Tests Sie gestalten und überwachen Data-Governance- und Data-Quality-Regeln Sie analysieren und bereinigen Stammdatenprobleme Sie steuern Schnittstellen zwischen SAP, Teamcenter und angebundenen Systemen Sie erstellen Dokumentation und Trainingsmaterialien für Endanwender Profil Abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik, Maschinenbau oder vergleichbar Mehrjährige Erfahrung in SAP S4HANA MDG M, SAP MM und SAP PP Erfahrung im PLM-Umfeld, idealerweise Teamcenter Sehr gute Kenntnisse in Requirements Engineering und funktionalem Design Erfahrung in Implementierungsprojekten sowie im IT-Projektmanagement Sehr gute Englischkenntnisse Unsicher, ob die Stelle zu Ihnen passt?
Entwickeln einer Datenstrategie in Abstimmung mit den Geschäftszielen der KundenEntwerfen und Implementieren von komplexen Datenmodellen und OntologienSchaffen einer konsolidierten DatenbasisSicherstellung der Datenqualität auf höchstem NiveauPlanen und Gestalten von Datenarchitektur für verschiedene Anwendungen und SystemeEntwickeln und Implementieren von Data-Governance-VerfahrenAuswahl von Datenbanken, Tools und Technologien in Abstimmung mit den Anforderungen unserer KundenLeiten eines Teams von Architekten und Entwicklern, Unterstzützung derer bei der beruflichen WeiterentwicklungDeutsch fließend in Wort und Schrift (C1), gute EnglischkenntnisseAbgeschlossenes Studium im Bereich Informatik, Datenwissenschaft oder adäquate QualifikationMehrere Jahre Berufserfahrung als Datenarchitekt oder in einer ähnlichen PositionErfahrung in der Arbeit mit Datenintegrationstools und -technologienKenntnisse in Data-Governance und DatenschutzbestimmungenAnalytische Fähigkeiten und die Fähigkeit, komplexe Probleme zu lösenKommunikations- und TeamführungsfähigkeitenInnovatives, modernes und anspruchsvolles Arbeitsumfeld mit flachen Hierarchien und der Möglichkeit, eigene Stärken individuell einzubringenLangfristige berufliche PerspektivenAttraktive EntlohnungFlexible Arbeitszeiten und Home-OfficeModernes Arbeitsumfeld in coolen Büros, in denen wir auch auf deine Gesundheit achten, z.
Anforderungsanalyse und Umsetzung: Du strukturierst und priorisierst fachliche Anforderungen und setzt diese erfolgreich in technische Lösungen um.Data-Engineering: Du arbeitest vorrangig in den Bereichen Data Management und Data Processing – von der Datenintegration und -bewirtschaftung über den Aufbau klassischer DWH-Systeme bis hin zu hybriden Architekturen wie z.B.
Verantwortungen Entwicklung robuster Datenmodelle auf Basis finanzieller und operativer Daten, um komplexe Analysen für unsere Finance-Teams zu ermöglichen Durchführung fortgeschrittener quantitativer Analysen großer, mehrquelliger Datensätze – inklusive der Verknüpfung von operativen und buchhalterischen Daten mit den Anforderungen der Finanzberichterstattung Eigenständige Leitung von datengetriebenen Reporting-Projekten – von der Konzeption bis zur Umsetzung – unter Einsatz von deskriptiven, diagnostischen und prädiktiven Analyseansätzen Durchführung explorativer Datenanalysen (EDA) und Datenmodellierung, um Muster und Zusammenhänge in den Daten zu erkennen – auch ohne klar definierten Business-Kontext Agiere als vertrauensvoller Partner und Impulsgeber für daten- und finanzrelevante Themen Gestaltung und Implementierung interaktiver Dashboards in Google BigQuery und Looker Studio Anforderungen Abgeschlossenes Studium der Wirtschaftsinformatik, Finanzen, Volkswirtschaftslehre, Betriebswirtschaftslehre oder eines vergleichbaren Fachbereichs Mehrjährige Berufserfahrung im Bereich Data Analytics, idealerweise mit Finance Fokus Fundierte Kenntnisse in Datenmodellierung und explorativer Datenanalyse mit SQL und Python Fähigkeit, komplexe Daten zu interpretieren, Ursachen zu identifizieren und Ergebnisse verständlich an technische wie nicht-technische Zielgruppen zu kommunizieren Ausgeprägte analytische Fähigkeiten, Neugier und hohe Detailgenauigkeit Proaktive, lösungsorientierte Denkweise sowie ein starkes Verantwortungsbewusstsein Erfahrung mit Cloud-basierten Datenlösungen (z.
Du analysierst bestehende Daten- und Organisationsstrukturen und entwickelst tragfähige Empfehlungen – auch für Greenfield-Ansätze. Du übersetzt fachliche Anforderungen in präzise technische, klare, wartbare und konsistente Collibra-Konfigurationen. Du moderierst Workshops mit Data Ownern, Fachbereichen und relevanten Stakeholdern - auf Augenhöhe und mit Struktur.
Du analysierst bestehende Daten- und Organisationsstrukturen und entwickelst tragfähige Empfehlungen – auch für Greenfield-Ansätze. Du übersetzt fachliche Anforderungen in präzise technische, klare, wartbare und konsistente Collibra-Konfigurationen. Du moderierst Workshops mit Data Ownern, Fachbereichen und relevanten Stakeholdern - auf Augenhöhe und mit Struktur.
Konkret treibst Du in Deiner Beratungsfunktion die verschiedensten Projekte voran – von der Absprache der Use Cases (Anwendungsfälle) inklusive der notwendigen Ressourcen zum Aufbau einer Datenmanagement-Plattform über die Entwicklung der technischen Architektur (logische & Software-Architektur) bis zur Lösungsimplementierung. Dabei berücksichtigst Du auch AI Use Cases und deren Anforderungen an Datenverfügbarkeit, Modelltraining und Deployment. Außerdem bindest Du aktuelle Themen und innovative Trends (z. B. Cloud-Services, Data Mesh, Lakehouse-Architekturen) mit ein und definierst mit Deinen Gesprächspartnern auf Kundenseite dazugehörige Organisations-, Prozess- und Governance-Strukturen, einschließlich AI-Governance-Aspekten wie Modellverantwortung, Fairness und Transparenz.
Konkret treibst Du in Deiner Beratungsfunktion die verschiedensten Projekte voran – von der Absprache der Use Cases (Anwendungsfälle) inklusive der notwendigen Ressourcen zum Aufbau einer Datenmanagement-Plattform über die Entwicklung der technischen Architektur (logische & Software-Architektur) bis zur Lösungsimplementierung. Dabei berücksichtigst Du auch AI Use Cases und deren Anforderungen an Datenverfügbarkeit, Modelltraining und Deployment. Außerdem bindest Du aktuelle Themen und innovative Trends (z. B. Cloud-Services, Data Mesh, Lakehouse-Architekturen) mit ein und definierst mit Deinen Gesprächspartnern auf Kundenseite dazugehörige Organisations-, Prozess- und Governance-Strukturen, einschließlich AI-Governance-Aspekten wie Modellverantwortung, Fairness und Transparenz.
Modernisierung der Datenplattform (Oracle, Snowflake) Weiterentwicklung des Snowflake-Datenmodells und Aufbau moderner ELT-Pipelines Analyse von Daten aus verschiedene Quellsystemen und Übersetzung in optimale Snowflake-Zielmodelle Erstellung und Pflege unternehmensweiter Datenmodelle sowie Architekturstandards Mitarbeit an Maßnahmen zur Sicherstellung von Datenqualität und an der Weiterentwicklung von Data-Governance-Prozessen Abstimmung mit IT, Fachbereichen und internen Stakeholdern im Rahmen von Anforderungen, Datenmodellen und Architekturentscheidungen Nutzung moderner Snowflake-Funktionen sowie Anwendung etablierter Entwicklungs- und Betriebsstandards (z.
Modernisierung der Datenplattform (Oracle, Snowflake)Weiterentwicklung des Snowflake-Datenmodells und Aufbau moderner ELT-PipelinesAnalyse von Daten aus verschiedene Quellsystemen und Übersetzung in optimale Snowflake-ZielmodelleErstellung und Pflege unternehmensweiter Datenmodelle sowie ArchitekturstandardsMitarbeit an Maßnahmen zur Sicherstellung von Datenqualität und an der Weiterentwicklung von Data-Governance-ProzessenAbstimmung mit IT, Fachbereichen und internen Stakeholdern im Rahmen von Anforderungen, Datenmodellen und ArchitekturentscheidungenNutzung moderner Snowflake-Funktionen sowie Anwendung etablierter Entwicklungs- und Betriebsstandards (z.
Ausgeprägte analytische Fähigkeiten und Freude daran, fachliche Anforderungen in technische Lösungen zu übersetzen Selbstständige, strukturierte Arbeitsweise sowie hohe Kommunikations- und Teamfähigkeit Flexible Arbeitszeitmodelle sowie Mobile Office Ein breites Lernangebot und digitale Trainings Umfassende Gesundheitsangebote und zahlreiche kostenfreie Sportkurse Job-Ticket und Bike-Leasing Gehaltsinformationen Auf Anfrage Ihr Kontakt Ansprechpartner Julia Cyzewski Referenznummer 862466/1 Kontakt aufnehmen E-Mail: julia.cyzewski@hays.de Anstellungsart Festanstellung durch unseren Kunden
Ausgeprägte analytische Fähigkeiten und Freude daran, fachliche Anforderungen in technische Lösungen zu übersetzen Selbstständige, strukturierte Arbeitsweise sowie hohe Kommunikations- und Teamfähigkeit Flexible Arbeitszeitmodelle sowie Mobile Office Ein breites Lernangebot und digitale Trainings Umfassende Gesundheitsangebote und zahlreiche kostenfreie Sportkurse Job-Ticket und Bike-Leasing Gehaltsinformationen Auf Anfrage Ihr Kontakt Ansprechpartner Julia Cyzewski Referenznummer 862466/1 Kontakt aufnehmen E-Mail: julia.cyzewski@hays.de Anstellungsart Festanstellung durch unseren Kunden
Bei unserem Kunden bist Du für den Aufbau und die Weiterentwicklung eines BI-Systems – von der fachlichen Anforderung bis hin zum fertigen Report – verantwortlich.Du gestaltest aktiv Workshops, um Anforderungen aufzunehmen und bildest die Schnittstelle zwischen Fachabteilung und IT.Du erstellst Konzepte für ein Data Warehouse-Backend und modellierst diese in unserem Tool Innovator.Du gestaltest die Architektur des BI-Systems und entwickelst moderne Lösungen für ein Datenmodell.Du optimierst bestehende ETL-Prozesse und konzipierst ETL-Datenstrecken, um neue Datenquellen an das Data Warehouse anzubinden.Dein Studium mit dem Schwerpunkt Informatik / Wirtschaftsinformatik oder eine vergleichbare Qualifikation hast Du abgeschlossen.
Für einen unserer Großkunden suchen wir derzeit eine Unterstützung, die die nachfolgenden Anforderungen erfüllt: Ihre Aufgaben: Implementierung von agentischen Analysesystemen auf Basis strukturierter Daten insbesondere SQL Datenbanken unter Verwendung von LangChain oder LangGraph in Python Analyse, Umstrukturierung und Beschreibung bestehender Datenlandschaften zur optimalen Nutzung in AI Agentensystemen Sicherstellung der Ergebnisqualität von KI Anwendungen beispielsweise durch Evaluationsmethoden wie LLM as a Judge Entwicklung, Containerisierung und Deployment von Anwendungen in einer bestehenden OpenShift Umgebung Erstellung technischer Dokumentationen der entwickelten Systeme und Lösungen Zusammenarbeit mit Data Science, MLOps und Fachbereichen zur Umsetzung produktiver KI Anwendungen Ihr Profil: Umfangreiche Projekterfahrungen (mindestens 3 Projekte) im Bereich KI-Agenten unter Verwendung von LangChain/LangGraph im operativen Einsatz mit, die im Rahmen pro Referenzprojekt nachgewiesen werden können.
Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt Databricks Strukturierung fachlicher Anforderungen und Umsetzung in effiziente technische Lösungen Verantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data Lakehouse Datenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende Anwendungen Umsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in Projekte Unterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und Datenintegration Cloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit Databricks Sicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte 30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf Firmenwagen Vielfältige Weiterbildungsangebote und interne Communities Absicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Entwicklung maßgeschneiderter BI- und Analytics-Lösungen mit Schwerpunkt DatabricksStrukturierung fachlicher Anforderungen und Umsetzung in effiziente technische LösungenVerantwortung für Data Management und Data Processing: von Datenintegration und -bewirtschaftung über klassische DWH-Systeme bis hin zu hybriden Architekturen wie Data LakehouseDatenmodellierung nach Methoden wie Data Vault oder dimensionaler Modellierung sowie Aufbereitung für weiterführende AnwendungenUmsetzung skalierbarer Datenlösungen in der Azure-Cloud und Einbringung innovativer Ansätze in ProjekteUnterstützung bei der Datenvisualisierung mit Tools wie Power BI und Tableau Technische Expertise: Erfahrung in Datenmodellierung (Data Vault, dimensionale Modellierung), Aufbau von Analytics-Architekturen und DatenintegrationCloud-Know-how: Fundierte Kenntnisse in Microsoft Azure/Fabric oder Snowflake sowie tiefgehende Erfahrung mit DatabricksSicherer Umgang mit SQL, Python und gängigen BI-Tools (Power BI, Tableau, QlikSense) Moderner Tech-Stack und spannende Projekte30 Tage Urlaub Betriebliche Altersvorsorge, JobRad und Option auf FirmenwagenVielfältige Weiterbildungsangebote und interne CommunitiesAbsicherung bei Krankheit (bis zu 6 Monate Lohnfortzahlung) Gehaltsinformationen Es wird eine faire und leistungsgerechte Vergütung geboten.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Analyst (m/w/d) Deine Aufgaben Du analysierst, designst und realisierst innovative Business Intelligence (BI) Lösungen Du erfasst und spezifizierst fachliche Anforderungen Du analysierst Prozesse und erarbeitest Optimierungspotentiale Du erstellst Reports und Dashboards Du erarbeitest Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme und Datenbankstrukturen Du unterstützt unsere Fachbereiche bei BI-Fragestellungen Dein Profil Basic: Du hast eine berufliche Ausbildung oder ein Studium im Bereich der Informatik, Mathematik, Wirtschafts-, Natur- oder Ingenieurwissenschaften.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllen Regelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von Sprachmodellen Planung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von Lösungsansätzen Aktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare Ausbildung Einschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-Erstellung Sehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KI Sicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAI Tiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-Evaluation Kenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code Retrieval Sehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWS Hoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzen Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Mein Arbeitgeber Als erfolgreicher, wachsender mittelständischer Anbieter relevanter und innovativer daten- und KI-getriebener Lösungen zur Optimierung der Entscheidungsfindung für namhafte Unternehmen bietet dieser Arbeitgeber eine aufgeschlossene, agile und von Fortschritt geprägte Kultur, in der Teamwork, Eigenverantwortung und kontinuierliches Lernen von hoher Bedeutung sind Gestaltungsspielraum in anspruchsvollen Projekten, langfristige Perspektiven und Flexibilität sind inklusive Konzeption, Umsetzung und Weiterentwicklung von Generative-AI- und NLP-Systemen, die Kundenanforderungen in Bezug auf Performance, Latenz, Kosten und Erweiterbarkeit optimal erfüllenRegelmäßige Abstimmung mit Stakeholdern bzgl. der Anforderungen Enge Zusammenarbeit mit EntwicklerInnen und Technical Leads für die Umsetzung und Use Cases wie Retrieval-basierten Chatbots, Agentensystemen oder Fine-Tuning von SprachmodellenPlanung und Implementierung robuster Machine Learning-Pipelines nach Best Practices - auf Azure, AWS oder GCP Input bei komplexen technischen Herausforderungen sowie Präsentation von LösungsansätzenAktive Verfolgung neuer Entwicklungen in NLP und KI, um KundInnen stets moderne, hochwertige Lösungen anzubieten Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik oder eine vergleichbare AusbildungEinschlägige Berufserfahrung in Data Science und idealerweise im Umgang mit mehreren der typischen NLP-/LLM-Tools wie OpenAI APIs, Bedrock, Azure AI Foundry, LangChain, LangGraph, Instructor, Hugging Face, Tokenizers, Vektordatenbanken, performanter Inferenz, Model Deployment, MCP/A2A und Datensatz-ErstellungSehr gute Kenntnisse in Machine Learning und Deep Learning, insbesondere im Bezug auf Transformer-Modelle, LLMs und Generative KISicherer Umgang mit produktionsreifen Frameworks wie PyTorch sowie mit Agent-Frameworks wie LangGraph, SmolAgents, OpenAI Agent SDK, CrewAI oder PydanticAITiefes Verständnis der Model-Optimierung mit PEFT wie QLoRA, Instruction Fine-Tuning, Post-Training, Inference-Optimierung und Embeddings Sicher in Workflows wie Conversational AI, RAG, Info Extraction, Tool Calling, LLM-EvaluationKenntnisse in Agentic RAG, GraphRAG, Multi-Agent-Systemen, Text-to-SQL und Code RetrievalSehr gutes Verständnis für Deployments und MLOps auf Azure, GCP oder AWSHoher Anspruch an Softwarequalität und die Fähigkeit, sauberen, performanten, skalierbaren Code zu schreiben und KI-Systeme produktiv einzusetzenDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln sowie gute Deutsch- und Englischkenntnisse Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 100.000 € p.a.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Analyst (m/w/d) Deine Aufgaben Du analysierst, designst und realisierst innovative Business Intelligence (BI) Lösungen Du erfasst und spezifizierst fachliche Anforderungen Du analysierst Prozesse und erarbeitest Optimierungspotentiale Du erstellst Reports und Dashboards Du erarbeitest Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme und Datenbankstrukturen Du unterstützt unsere Fachbereiche bei BI-Fragestellungen Dein Profil Basic: Du hast eine berufliche Ausbildung oder ein Studium im Bereich der Informatik, Mathematik, Wirtschafts-, Natur- oder Ingenieurwissenschaften.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Engineer (m/w/d) Deine Aufgaben Du konzipierst, entwickelst und wartest Datenintegrations- und Modellierungsprozesse im Data Warehouse Du erstellst Konzepte für Daten-Architekturen (u.a. zur Umsetzung von Datenvisualisierungen) Du unterstützt die Fachbereiche bei der Umsetzung von Anforderungen Du setzt Berechtigungskonzepte um Zusätzlich erarbeitest Du mit dem gesamten Business Intelligence (BI) Team Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme Dein Profil Basic: Du hast eine Ausbildung, ein Studium oder eine vergleichbare Berufserfahrung und gute IT-Kenntnisse.
Security), Data Lake & Data Factory, Low-/No-Code-Tools sowie Master Data Management.Du verfügst über tiefes Praxiswissen in Datenmanagement- und Schnittstellenprozessen, gängigen Datenstrukturen (CRM/ERP) sowie agilen Methoden und Tools (Jira, Confluence).Du bist sehr sicher in SQL und hast Grundkenntnisse in Python; du konzipierst Daten-Workflows, führst Datennormalisierung durch und setzt Anforderungen um.Letztendlich überzeugst du mit Organisationsvermögen, Kommunikationsstärke und Entscheidungsfreude – auch in Konflikt-/Krisensituationen und sprichst Deutsch fließend Zusätzliche Informationen 🏡 Flexibilität & Work-Life-Balance Urlaub: Nimm dir Zeit zum Abschalten - bei uns stehen dir 30 Tage Urlaub zur Verfügung.
Security), Data Lake & Data Factory, Low-/No-Code-Tools sowie Master Data Management.Du verfügst über tiefes Praxiswissen in Datenmanagement- und Schnittstellenprozessen, gängigen Datenstrukturen (CRM/ERP) sowie agilen Methoden und Tools (Jira, Confluence).Du bist sehr sicher in SQL und hast Grundkenntnisse in Python; du konzipierst Daten-Workflows, führst Datennormalisierung durch und setzt Anforderungen um.Letztendlich überzeugst du mit Organisationsvermögen, Kommunikationsstärke und Entscheidungsfreude – auch in Konflikt-/Krisensituationen und sprichst Deutsch fließend Zusätzliche Informationen 🏡 Flexibilität & Work-Life-Balance Urlaub: Nimm dir Zeit zum Abschalten - bei uns stehen dir 30 Tage Urlaub zur Verfügung.
Hier beweist Du Unternehmergeist Du tauchst in die Geschäftsprozesse und Methoden unserer Kunden ein und erkennst die fachlichen Anforderungen und setzt diese im Datenmanagement um Du berätst eigenständig und kompetent im Kontext von Datenmanagement, Data Warehousing & Data Lake.
Hier beweist Du Unternehmergeist Du tauchst in die Geschäftsprozesse und Methoden unserer Kunden ein und erkennst die fachlichen Anforderungen und setzt diese im Datenmanagement um Du berätst eigenständig und kompetent im Kontext von Datenmanagement, Data Warehousing & Data Lake.
Zusammenarbeit und Automatisierung In enger Zusammenarbeit mit internen Stakeholdern definierst Du Reporting-Anforderungen und treibst die Automatisierung von Datenprozessen voran, um Effizienz und Qualität nachhaltig zu steigern. Was Dich auszeichnet: Ausbildung und Berufserfahrung Du hast ein abgeschlossenes Studium in Wirtschaftsinformatik, Betriebswirtschaft, Logistik, Data Science oder einer vergleichbaren Fachrichtung.
Dies beinhaltet auch die Analyse anzubindender Datenquellen sowie die Integration in dazugehörige Datenmodelle Umsetzung der Anforderungen mittels eigenverantwortlicher Erstellung und Einsteuerung von User Stories zu konzipierten Funktionalitäten bei der IT und externen Dienstleistern.
Power BI) sowie Sicherstellung der verwendbaren Datenversorgung für das Projekt Analyse fachlicher Anforderungen aus den Teilbereichen des Projekts sowie Ableitung von IT Architekturen und technischen Konzepten Abstimmung mit beteiligten Fachbereichen, IT Teams und externen Partnern Tiefes Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-Lösungen Erfahrung in Projekten rund um Cloud-Datenplattformen, Data Engineering, Schnittstellen und Datenintegration Technologisches Know-how (mind. in mehreren Bereichen) Azure Data Services, insbesondere: Databricks, Data Factory, Azure DevOps, Power BI Containertechnologien (Docker, Kubernetes) Python, Git, CI/CD ETL-/ELT-Prozesse, z.B. über REST-APIs SQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche Bezahlung Betriebliche Altersvorsorge Betreuung im gesamten Bewerbungsprozess Ein renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865599/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
B. mit Databricks, Spark oder Azure Data Factory) und erstellst robuste Datenmodelle Du stellst den stabilen Betrieb unserer BI Tools im Rahmen von Operations, Monitoring, Deployment und Incident Management sicher und legst Wert auf das Thema Datenqualität Du arbeitest eng mit Business Intelligence Engineers und Projektmanagern zu Business Anforderungen, Konzepten und Arbeitspaketen zusammen Dein Schwerpunkt liegt im Bereich Data Engineering, idealerweise bringst du jedoch auch Erfahrungen im Bereich BI Frontend mit (z.B.
B. mit Databricks, Spark oder Azure Data Factory) und erstellst Datenmodelle Du stellst den stabilen Betrieb unserer BI Tools im Rahmen von Operations, Monitoring, Deployment und Incident Management sicher Du arbeitest eng mit Business Intelligence Engineers bei der Erstellung von Management Dashboards und Berichten, in Form von gemeinsamen Anforderungen, Konzepten und Arbeitspaketen zusammen Dein Schwerpunkt liegt im Bereich Data Engineering, idealerweise bringst du jedoch auch Erfahrungen im Bereich BI Frontend mit (z.B.
Rechtswissenschaften, Wirtschaftsinformatik oder vergleichbar)Mehrjährige Berufserfahrung im Datenschutz oder in angrenzenden RechtsgebietenFundierte Kenntnisse der Datenschutzgesetze (insbesondere DSGVO, BDSG)Analytisches Denken, Kommunikationsstärke und sicheres AuftretenSehr gute Deutsch- und Englischkenntnisse UNSER ANGEBOT Mobile Working und flexible ArbeitszeitmodelleUmfangreiche Karriere- und WeiterbildungsmöglichkeitenSport- und Gesundheitsprogramm HELLA in Motion sowie Partner des Firmenfitness-Netzwerks WELLPASSVergünstigtes Deutschlandticket für Bus und Bahnkostenfreie Kaffeespezialitäten und Wasser, Betriebsrestaurants und CafésFahrradleasing sowie zahlreiche MitarbeitervergünstigungenBetriebliche Altersvorsorge mit HELLA ZuschussUnterstützung rund um das Thema Familie: Familienservice sowie Beratung bei der Pflege AngehörigerMitarbeiterevents Auch wenn Sie nicht alle unsere Anforderungen erfüllen, zögern Sie nicht, sich bei uns zu bewerben, denn die Weiterentwicklung unserer Mitarbeiter liegt uns sehr am Herzen und eröffnet Ihnen vielfältige Möglichkeiten in unserem Unternehmen.
Power BI) sowie Sicherstellung der verwendbaren Datenversorgung für das ProjektAnalyse fachlicher Anforderungen aus den Teilbereichen des Projekts sowie Ableitung von IT Architekturen und technischen KonzeptenAbstimmung mit beteiligten Fachbereichen, IT Teams und externen Partnern Tiefes Verständnis datenbezogener Fragestellungen sowie Erfahrung in der Entwicklung datenbasierter IT-LösungenErfahrung in Projekten rund um Cloud-Datenplattformen, Data Engineering, Schnittstellen und DatenintegrationTechnologisches Know-how (mind. in mehreren Bereichen)Azure Data Services, insbesondere: Databricks, Data Factory, Azure DevOps, Power BIContainertechnologien (Docker, Kubernetes)Python, Git, CI/CDETL-/ELT-Prozesse, z.B. über REST-APIsSQL, Unity Catalog, moderne Data-Governance-Konzepte Eine übertarifliche BezahlungBetriebliche AltersvorsorgeBetreuung im gesamten BewerbungsprozessEin renommiertes Unternehmen mit ausgezeichnetem Ruf Ihr Kontakt Ansprechpartner Désirée Holmes Referenznummer 865599/1 Kontakt aufnehmen E-Mail: desiree.holmes@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Unbefristeter Arbeitsvertrag Einsatz bei renommierte Kunden/ Weltmarktführer Betreuung vom Bewerbungsgespräch bis zur Einstellung Ihre Aufgaben: Beratung und Unterstützung der Mitarbeiter weltweit in Bezug auf Einsatzmöglichkeiten, Leistungsfähigkeit und optimale Nutzung von vorhandenen Datenanalyse-Tools Unterstützung bei der Analyse und Verbesserung der Datenqualität Verantwortung für die Aufnahme, Bewertung und Festlegung des Leistungsumfanges im Bereich Data Mining und Data Analytics Implementierung, Test, Anwenderabnahme, Dokumentation und Produktivsetzung von Anforderungen im Bereich Data Mining und Data Analytics Identifizierung der entsprechenden Rohdaten, Design der notwendigen Datenmodelle und Automatisierung der Umwandlung dieser Rohdaten in entscheidungsrelevante Informationen Unterstützung bei der Auswahl neuer Softwarelösungen durch Erstellung von Lasten- /Pflichtenheften und Evaluierungsmatrizen sowie durch fachliche Bewertung der Angebote Übernahme der Projekt- bzw.
Operative Unterstützung bei der Umsetzung des EU AI ACT Analyse und Bewertung bestehender AI- und Datenmodelle hinsichtlich regulatorischer Konformität Klassifizierung, Dokumentation und Risikobewertung bankinterner AI-Systeme Anpassung von Datenpipelines, Modellierungsprozessen und Governance-Strukturen gemäß EU AI ACT Erstellung revisionssicherer Dokumentationen und Reports sowie Begleitung interner/externer Prüfungen Bankenerfahrung ist Voraussetzung Tiefes Know-how in Machine Learning, Data Analytics und statistischer Modellierung Erfahrung in regulatorischen Umsetzungsprojekten in Banken, insbesondere EU AI ACT, BAIT, Modellrisikomanagement Sichere Kenntnisse in Python, gängigen ML-Frameworks, MLOps-Umgebungen und Datenqualitätsverfahren Nachweisbare Erfahrung in Modellvalidierung, Dokumentation und Modell-Governance im Finanzsektor Fähigkeit, komplexe technische Inhalte in klare regulatorische Anforderungen zu übersetzen Dynamisches Projektumfeld Ihr Kontakt Referenznummer 866057/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Ihre Aufgaben: Konzeption, Modellierung und Realisierung von Datawarehouse-/BI-Lösungen zusammen mit IT-Leitung und Fachkolleg*innenEntwicklung, Wartung und Optimierung von ETL-/ELT-Prozessen und DatenbankenDatenbankprogrammierung, Datenmodellierung und Prozessoptimierung zur DatenbereitstellungErfassung fachlicher Anforderungen und Umsetzung von Datenflüssen und -strukturenDurchführung von Ad-hoc-Analysen, Berichtserstellung und Dokumentationen Ihr Profil: Abgeschlossenes Studium in Informatik, Wirtschaftsinformatik, Statistik, BWL oder vergleichbare Ausbildung (Quereinsteiger mit Erfahrung willkommen)Erfahrung in Datenbankprogrammierung (SQL), Datenmodellierung und Entwicklung von ETL-/ELT-StreckenIdealerweise Kenntnisse in Microsoft Azure Data Diensten (z.
Terraform, und CI/CD-Workflows Tiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und Datenmodellierung Erfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder Snowflake Sehr gutes Verständnis für Data Governance, Sicherheit und Datenschutz Idealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQL Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln Kommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Du zeichnest dich durch hohe Lernbereitschaft und Teamgeist aus Unsere Stellenausschreibung gibt Dir einen Einblick in die Anforderungen der Position. Falls Du nicht alle Anforderungen mitbringst, kein Problem. Für uns zählst Du als Mensch und Deine Motivation.Zukunftsbranche: Du erhältst einen spannenden Einblick in die MedizintechnikPraxiserfahrung: Die Möglichkeit, Dein im Studium erlangtes Wissen in der Praxis anzuwenden und relevante Berufserfahrung zu sammeln, Miteinander: Gemeinsam für das Patientenwohl!
Terraform, und CI/CD-WorkflowsTiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und DatenmodellierungErfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder SnowflakeSehr gutes Verständnis für Data Governance, Sicherheit und DatenschutzIdealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQLDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermittelnKommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Operative Unterstützung bei der Umsetzung des EU AI ACTAnalyse und Bewertung bestehender AI- und Datenmodelle hinsichtlich regulatorischer KonformitätKlassifizierung, Dokumentation und Risikobewertung bankinterner AI-SystemeAnpassung von Datenpipelines, Modellierungsprozessen und Governance-Strukturen gemäß EU AI ACTErstellung revisionssicherer Dokumentationen und Reports sowie Begleitung interner/externer Prüfungen Bankenerfahrung ist VoraussetzungTiefes Know-how in Machine Learning, Data Analytics und statistischer ModellierungErfahrung in regulatorischen Umsetzungsprojekten in Banken, insbesondere EU AI ACT, BAIT, ModellrisikomanagementSichere Kenntnisse in Python, gängigen ML-Frameworks, MLOps-Umgebungen und DatenqualitätsverfahrenNachweisbare Erfahrung in Modellvalidierung, Dokumentation und Modell-Governance im FinanzsektorFähigkeit, komplexe technische Inhalte in klare regulatorische Anforderungen zu übersetzen Dynamisches Projektumfeld Ihr Kontakt Referenznummer 866057/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Bachelorabschluss oder höherer Abschluss (Universität, FH) in Wirtschaftsinformatik, Data Science, Controlling, BWL, Information Systems oder einer vergleichbaren Fachrichtung Stark ausgeprägtes analytisches Denkvermögen, hohe Datenaffinität und Fähigkeit, komplexe Anforderungen in strukturierte Lösungen zu überführen Interesse am Ausbau von Kenntnissen in BI-Tools, Datenmodellierung und Prozessautomatisierung sowie Bereitschaft zur kontinuierlichen Weiterbildung Selbstständige, zuverlässige und qualitätsbewusste Arbeitsweise mit hohem Detailfokus Gute Englischkenntnisse in Wort und Schrift; Deutschkenntnisse sowie Erfahrung im Reporting, im Umgang mit Daten oder BI-Tools (z.B.
Hier gestaltest Du Zukunft Du leitest anspruchsvolle Data-&-Analytics-Projekte und stellst sicher, dass unsere Kundschaft die beste Lösung für ihre Anforderungen erhalten. Du entwickelst Visualisierungskonzepte und Dashboards mit Looker und gerne auch mit weiteren Tools wie MS Power BI.
Hier gestaltest Du Zukunft Du leitest anspruchsvolle Data-&-Analytics-Projekte und stellst sicher, dass unsere Kundschaft die beste Lösung für ihre Anforderungen erhalten. Du entwickelst Visualisierungskonzepte und Dashboards mit Looker und gerne auch mit weiteren Tools wie MS Power BI.
RLS/OLS, Tenant- und Workspace-Modelle, Sensitivity- und Compliance-Anforderungen) Erfahrung in der Zusammenarbeit mit heterogenen Systemlandschaften sowie einer zentralen Datenplattform (z. B. GCP) als primäre Datenquelle Agile Arbeitsweise sowie sicherer Umgang mit Jira und Confluence Sehr gute Deutschkenntnisse und gute Englischkenntnisse (min.
Arbeitsort: Stuttgart Ihre Aufgaben Entwicklung und Betrieb von Financial Reporting Solutions, speziell Mitwirkung bei der Weiterentwicklung und dem Betrieb eines zentralen Management Reporting Dashboards bzw. einer Plattform für den Konzern Eigenständige Analyse der fachlichen Anforderungen, Abstimmung mit Projektpartnern und Business Ownern in einem komplexen Umfeld Ausarbeitung von User Stories zur Einsteurung bei IT, Shared Service Center im Backend & externen Lieferanten sowie Testing, Implementierung & Anwenderschulung Steuerung der IT, der international ansässigen Shared Service Center & der externen Lieferanten Sicherstellung der Einhaltung von übergreifenden betriebswirtschaftlichen Standards und übergreifender Data Governance Mitarbeit an der Ausarbeitung und Definition von übergreifenden Standards zur System- und Datenlandschaft Finance & Controlling Ihr Profil Sehr gut abgeschlossenes Hochschulstudium in Wirtschaftswissenschaften, Wirtschaftsingenieurwesen oder -informatik oder eine vergleichbare Qualifikation Gute fachliche Kenntnisse zu Themenstellungen und Prozessen im Finanzbereich Erfahrung in Beratung und Koordination an der Schnittstelle zwischen Fachbereich (Finance & Controlling) & IT im Rahmen der Konzeption und dem Betrieb von Business Intelligence Lösungen Erfahrungen mit agilen Projektmethoden in einer internationalen Projektorganisationen wünschenswert Grundlagenwissen in SAP Technologien, z.B.
Sie bringen Daten zuverlässig, nachvollziehbar und performant an ihr Ziel – aus SAP- und Non-SAP-Quellen in eine moderne, cloudnahe Datenplattform. Sie übernehmen End-to-End-Verantwortung von der Anforderung bis zur produktiven Strecke. IHRE AUFGABEN Design, Entwicklung und Betrieb von ETL-/ETL-Strecken mit SAP Data Services und SAP Datasphere – inkl.
Sie bringen Daten zuverlässig, nachvollziehbar und performant an ihr Ziel – aus SAP- und Non-SAP-Quellen in eine moderne, cloudnahe Datenplattform. Sie übernehmen End-to-End-Verantwortung von der Anforderung bis zur produktiven Strecke. IHRE AUFGABEN Design, Entwicklung und Betrieb von ETL-/ETL-Strecken mit SAP Data Services und SAP Datasphere – inkl.
Anforderungen IRT Expert:Masterabschluss in Naturwissenschaften und mehrere Jahre Erfahrung in einer verwandten wissenschaftlichen Disziplin oder Bachelorabschluss mit langjähriger Erfahrung in einem verwandten Bereich oder umfangreiche Erfahrung im Qualitätsumfeld.Erfahrung im IRT-Bereich, nachgewiesenes vertieftes Wissen über die technischen Aspekte und Funktionen eines IRT-Systems.Gute Kenntnisse des generischen Software-Entwicklungszyklus, einschließlich der Validierung von Cloud-Systemen.Gute Kenntnisse der regulatorischen Anforderungen und GMP/GCP-Vorgaben in der Pharmaindustrie und deren Anwendung auf die Funktion sind erforderlich.Gute Kenntnisse globaler investigativer Arzneimittelaktivitäten sowie allgemeiner klinischer Studienausführung und -design.Fähigkeit, komplexe Aufgaben eigenständig zu initiieren und zu analysieren, unter Berücksichtigung der geltenden Vorschriften, Wirtschaftlichkeit und Zeitpläne.Ausgezeichnete Kommunikationsfähigkeiten und fließend in Englisch, sowohl in Wort als auch in Schrift.
SAP FI/CO, MM, SD, PP, EWM) und weiteren Systemen für eine effiziente Datenintegration Erstellung von Datenpipelines und ETL-Prozessen zur Verarbeitung großer Datenmengen aus verschiedenen SAP-Modulen und anderen Quellen Beratung der Fachbereiche bei der Nutzung von Daten aus SAP-Systemen zur Optimierung von Geschäftsprozessen Zusammenarbeit mit interdisziplinären Teams, um Anforderungen aus verschiedenen Fachbereichen aufzunehmen und datengetriebene Lösungen zu entwickeln Unterstützung bei der Analyse, Modellierung und Visualisierung von Daten Mitwirkung in der strategischen Weiterentwicklung eines globalen Berichtswesens Ihr Profil: Abgeschlossene Ausbildung oder Studium im Bereich (Wirtschafts-) Informatik oder vergleichbar - alternativ mehrjährige äquivalente Berufserfahrung Kommunikationsstärke und Fähigkeit, komplexe technische Zusammenhänge für nicht-technische Stakeholder verständlich zu machen Fundierte Erfahrung in der Modellierung und Visualisierung von Daten, idealerweise mit Qlik-Technologien Praktische Kenntnisse in SAP-Systemen und verschiedenen Modulen (z.